Eurogroup Consulting publie une nouvelle étude sur l’éthique des organisations à l’ère du numérique : vers une intelligence artificielle responsable. Nos experts y analysent les différentes problématiques liées à l’intelligence artificielle et la gestion des risques.
L’intelligence artificielle s’annonce comme l’un des défis technologiques majeurs de ces prochaines décennies. Mais elle représente également un enjeu géopolitique, un vecteur de transformation économique et sociétal. Son développement rapide suscite malgré tout de nombreuses interrogations et inquiétudes. En outre, quelques incidents retentissants sont venus ternir son image de pur progrès.
POURQUOI S’INTERROGER SUR LES ENJEUX ÉTHIQUES DE L’IA ?
Les organisations, publiques comme privées, sont amenées à recourir de plus en plus à l’intelligence artificielle. Cette dernière promet des gains de productivité et d’efficacité, en réalisant à la place de l’humain un nombre de tâches en quantité comme en complexité, qui permettent à ce dernier de s’en dégager. Elle est également à la base de la production de nouveaux services à forte valeur ajoutée.
Une éthique de l’IA pour quoi faire ?
L’explosion du volume de données produites et exploitées ouvre la voie à des utilisations variées de l’intelligence artificielle. Mais cet essor soulève également des craintes, notamment d’ordre éthique.
Veiller à ce que l’intelligence artificielle se comporte de façon responsable est donc nécessaire à plusieurs titres :
- Créer de la valeur tout en renforçant la confiance des usagers dans l’intelligence artificielle,
- Prévenir les risques réputationnels pour l’organisation,
- Réduire les risques juridiques
Un usage éthique pour prévenir les dérives
Ces programmes informatiques peuvent adopter des pratiques non voulues. Elles se traduisent potentiellement par des discriminations, ou autres comportements contraires aux principes moraux admis.
L’intelligence artificielle repose en effet sur des algorithmes conçus et développés par des humains. Ces derniers ne sont pas exempts de biais, conscients ou inconscients. Ainsi, telle solution d’IA censée prévoir, par l’analyse statistique, la criminalité, se révèlera discriminante avec la population noire, quand tel autre programme intelligent de discussion tiendra des propos racistes et négationnistes sur un réseau social.
Un usage éthique comme source de valeur
Les cas de comportements non voulus et contraires aux valeurs rappellent un fait essentiel concernant l’intelligence artificielle : un programme informatique, quel qu’il soit, est le produit d’un environnement social, organisationnel et culturel.
Ce n’est donc pas qu’une problématique technique, mais bien un enjeu d’organisation et de gouvernance, qui concerne l’ensemble des structures utilisatrices.
Entreprises et organisations doivent alors se saisir du sujet de l’éthique des algorithmes. Ainsi, elles s’assureront de leur conformité avec leurs propres valeurs, mais aussi celles de la société.
Or, si elles sont conscientes des enjeux qui s’y rattachent, le niveau de maturité est encore perfectible.
CADRE ÉTHIQUE DE L’IA : UNE PRÉOCCUPATION TOUTE RÉCENTE DES ORGANISATIONS
La perception des enjeux éthiques dans les organisations
De manière générale, le niveau de connaissance au sujet de l’intelligence artificielle est relativement faible. Même si l’IA est perçue par les décideurs comme une opportunité pour s’améliorer, peu d’acteurs comprennent son fonctionnement et mesurent les risques associés. Cantonnée à une problématique technique, l’IA et ses biais éventuels sont souvent du ressort des développeurs et experts techniques.
- Cette invisibilisation relative se ressent également au niveau des comités éthiques, lorsqu’ils existent. Ils se saisissent rarement des sujets technologiques, du fait d’une sous-estimation de la criticité du risque, et du manque de compétences.
- Quand les organisations reconnaissent l’importance de se former, seules les collaborateurs directement impliqués, dans la conception ou l’utilisation d’outils employant l’IA sont directement ciblés.
Un manque de maturité organisationnelle
Les DSI sont davantage conscientes des risques éthiques associés à l’utilisation de l’intelligence artificielle. Pour autant, ce souci se traduit rarement par la mise en place de mesures organisationnelles et techniques, destinées à réduire ces risques. La qualité éthique n’est pratiquement jamais un critère de sélections lors de l’acquisition de solutions d’IA.
Une communication trop faible
Face à ces enjeux, notre étude formule des recommandations pour tendre vers un usage responsable de l’intelligence artificielle.
Ces dernières portent sur :
- La politique et la stratégie,
- L’organisation,
- La conception des solutions algorithmiques,
- La communication et l’écosystème
Des dispositifs techniques de réduction du risque balbutiants
Lorsque la solution est développée en interne, la qualité des données est une préoccupation forte. Les biais éthiques sont largement liés au manque de diversité et de qualité des données employées. Pourtant, les efforts de mise en qualité des données ignorent souvent la dimension éthique. Cela s’explique majoritairement par un manque de sensibilisation ou encore par une sous-estimation de l’importance de la problématique.
De plus, le sujet suscite peu de réflexions en interne, ou dans le cadre de cercles professionnels. Ce qui limite largement la possibilité de partage de bonnes pratiques dans le domaine.
Il paraît donc nécessaire de se saisir de la problématique au plus haut niveau de l’organisation. Pour cela, il est indispensable de reconnaître qu’elle est à la fois un facteur de risque important et une source de valeur potentielle.
Cette réflexion implique une concertation la plus large possible pour s’interroger sur les valeurs de l’organisation, et formaliser les principes directeurs éthiques applicables à l’intelligence artificielle dans une Charte.
Le sujet devra être adressé dans une instance adaptée, en étant intégrée au sein d’un comité éthique existant, ou d’une comité dédié. Il devra, dans sa composition, assurer une diversité des expertises : responsable éthique, développeur, chef de projet, juriste…
VERS UNE INTELLIGENCE ARTIFICIELLE PLUS ÉTHIQUE ET RESPONSABLE
La diversité des équipes
Au niveau de la DSI, la diversité dans les équipes de développement est essentielle pour promouvoir une IA plus mixte et représentative. Cette diversité doit s’accompagner d’une promotion « ethics by design », où l’éthique serait abordée comme un élément structurant et impératif. Dans le cas où l’organisation ne développe pas elle-même ses solutions mais les acquiert, une responsabilisation des fournisseurs au sujet est souhaitable.
- Réfléchir à l’éthique de l’intelligence artificielle n’est aujourd’hui plus un luxe, mais une nécessité. Face aux enjeux, il est indispensable de mettre en place un système de management de l’éthique de l’IA, pour à la fois aligner les usages avec les valeurs de l’organisation et de la société, et pour offrir une valeur supplémentaire à des consommateurs toujours plus soucieux des externalités, positives comme négatives, attachées à leur consommation.
Formation et veille technologique
Comme le domaine de l’IA progresse très rapidement, un dispositif de maintien des connaissances et des pratiques est indispensable. Celui-ci doit passer par une veille réglementaire et technologique, et par une révision des pratiques aussi souvent que nécessaire.
Les algorithmes d’IA se perfectionnant avec le volume de données traitées, leur comportement est susceptible d’évoluer en conséquence, justifiant ainsi la mise en place d’un suivi et d’une évaluation tout au long de leur cycle de vie. L’éthique des algorithmes doit ainsi être pensée à la conception, mais aussi une fois en production.
Une communication généralisée
L’IA responsable doit faire l’objet d’une communication de la part des organisation. Celle-ci doit s’adresser à la fois aux collaborateurs, afin de les sensibiliser, et aux clients, afin de promouvoir son usage responsable. Surtout à l’heure où la technologie nourrit de nombreux fantasmes.
NOS RECOMMANDATIONS
Politique et stratégie
- Consulter le clients et le personnel sur les enjeux éthiques de l’intelligence artificielle
- Acculturer le top management de l’organisation aux enjeux éthique de l’intelligence artificielle
- Construire une charte éthique en définissant les principes directeurs éthiques applicables à l’intelligence artificielle
- Sensibiliser l’ensemble du personnel impliqué sur des projets utilisant des algorithmes
- Mettre en place une politique d’achats intégrant des exigences relatives à l’éthique
Conception des solutions algorithmiques
- Inclure une exigence d’ »ethics by design » dès l’origine du développement de la solution
- Mettre en qualité les données avant leur utilisation lors de la conception et du « dressage » d’une IA
- Auditer les données tout au long du cycle de vie du produit
- Assurer un suivi de la conformité éthique des solutions dans le temps
Organisation
- Adresser le sujet de l’éthique de l’IA dans une instance de gouvernance
- Favoriser des équipes de développeurs culturellement mixtes
- Responsabiliser les développeurs du produit
- Maintenir les connaissances et les pratiques de l’organisation à l’état de l’art
Communication & écosystème
- Intégrer l’éthique de l’IA dans la communication de l’organisation
- Instaurer un dispositif de transparence et d’explicabilité de l’algorithme
- Encourager les discussions sur le sujet de l’éthique de l’IA dans les cercles professionnels
AUTEURS DE L’ÉTUDE
- Hippolyte ANCELIN, Consultant senior
- Emilie KUHLMANN, Consultante
- Adeline TARAVELLA, Directrice
Contributeurs
- Pierre-Antoine PONTOIZEAU, Directeur
- Sieglin STEVENS, Supervising Senior
Préface
Anne-Laure NOAT, Associée responsable du DAS Société et économie responsable (SER)
Grégoire VIRAT, Associé responsable du DAS Numérique
Nous avons la conviction que les directions doivent s’emparer du sujet, et mettre en place un système de management de l’éthique de l’intelligence artificielle. Afin de protéger l’organisation en alignant ses usages de l’IA avec ses valeurs propres et celles de la société. Et surtout, d’offrir une valeur supplémentaire à des consommateurs toujours plus soucieux de leur consommation.